home *** CD-ROM | disk | FTP | other *** search
/ Internet Info 1994 March / Internet Info CD-ROM (Walnut Creek) (March 1994).iso / inet / ietf / tewg / tewg-minutes-90dec.txt < prev    next >
Text File  |  1993-02-17  |  7KB  |  166 lines

  1.  
  2.  
  3. CURRENT_MEETING_REPORT_
  4.  
  5.  
  6.  
  7. Reported by Phill Gross/CNRI
  8.  
  9. TEWG Minutes
  10.  
  11. Past IETF meetings have typically featured status reports from various
  12. operational networks.  These have included NSFnet, the US DOE Energy
  13. Science netwowrk (ESnet), the US NASA Science Internet (NSI), DCA
  14. Milnet, and more recently, occasional regional networks and European
  15. networks.  These reports have typically been featured during the
  16. technical plenary session.
  17.  
  18. Starting at the Boulder IETF meeting, the network status reports have
  19. been moved into the Topology Engineering Working Group sessions.  This
  20. is in response to suggestions from IETF participants to make time for
  21. additional technical presentations during the plenary sessions.  This
  22. will also have the effect of providing more time for those interested in
  23. network operations to interact in more detail.
  24.  
  25. This represents a shift in emphasis for the Topology Engineering Working
  26. Group.  I'd like to consider this an experiment for the next few
  27. meetings, after which, I will poll regular TEWG attendees, and others
  28. interested in network operations, for comments regarding the new format,
  29. and whether there are other operational topics that TEWG (or, perhaps,
  30. another Working Group in the Operational Requirements Area) should
  31. consider.
  32.  
  33. Dale Johnson (MERIT) submitted the text below to accompany his slide
  34. presentation.
  35.  
  36. NSFNET Presentation (Dale Johnson /MERIT)
  37.  
  38.  
  39.    o NSFNET T1 Backbone 1990:
  40.      An additional node was added to the NSFNET T1 backbone in October
  41.      of 1990 in Atlanta, Georgia, bringing the total number of nodes on
  42.      the backbone to 14.
  43.      The Atlanta NSS is located at Georgia Institute of Technology and
  44.      is connected to the NSSs in Houston and Pittsburgh.  In November,
  45.      the Atlanta NSS passed 164 million packets, which was more than
  46.      that passed by two other NSSs.
  47.    o NSFNET T3 Backbone 1990:
  48.      The real story of the NSFNET is occurring with the current
  49.      engineering of the T3 network.  Merit has a goal of passing some
  50.  
  51.                                    1
  52.  
  53.  
  54.  
  55.  
  56.  
  57.  
  58.   production traffic on the new T3 network within calendar year 1990.
  59.   T3 NSSs will be located in the eight locations shown, which include
  60.   two new sites in Argonne, Il.  and Cambridge, MA.
  61.   The T3 network is being engineered and built as a totally separate
  62.   peer backbone to the T1 network.  It will have its own AS number,
  63.   and will interoperate with the T1 network using an exterior gateway
  64.   protocol.
  65. o NSFNET T1/T3 Backbones 1990:
  66.   As can be seen in the combined T1 and T3 map (see slides), several
  67.   sites will have both a T1 NSS and a T3 E-NSS (exterior NSS - see
  68.   below).  Packets will be routed between the two backbones at these
  69.   locations.
  70. o NSFNET T1 Architecture:
  71.   This is a diagram of the T1 NSS and circuit architecture as it
  72.   relates to the MCI backbone junction point, or Point of Presence,
  73.   (POP). In the diagram, everything inside the circle is physically
  74.   located at the MCI POP.
  75.   The circles labeled DXC represent MCI backbone Digital
  76.   Cross-Connect switches.  There are two (or more) clear-channel T1
  77.   circuits which run over local loops from the DXC to the NSS located
  78.   at the university or supercomputer site.
  79.   This architecture does allow for redundant circuits from the MCI
  80.   backbone to the site, however an outage at the site not only
  81.   disrupts traffic to that site, but also disrupts backbone traffic
  82.   running through that site but destined for other locations.
  83. o NSFNET T1 Architecture:
  84.   The diagram of the T3 architecture indicates that there will be two
  85.   new types of NSSs at each node on the backbone.  Again, everything
  86.   inside the circle is physically located at the MCI POP.
  87.   As indicated in the diagram, the first new type of NSS, the
  88.   Core-NSS (C-NSS) will be collocated at the MCI POP. The C-NSSs will
  89.   form a backbone infrastructure which will be independent of
  90.   activity at the end sites.  Therefore, an outage at an end site
  91.   will affect traffic only to that site, not backbone traffic
  92.   destined for other sites.
  93.   The second type of NSS, the ExteriorNSS (E-NSS) will be located on
  94.   site at the organization hosting the node, as is done in the T1
  95.   backbone.  The E-NSS will be connected to the C-NSS by a single T3
  96.   pipe.
  97. o Number of Networks Graph:
  98.   The number of networks configured on the NSFNET backbone reached
  99.   2063 by the end of October 1990.  This included 527 foreign
  100.   networks.  The number of configured nets by the end of November
  101.   1990 totalled 2125.  (Chart not available at the time of this
  102.   presentation.)
  103. o NSFNET Monthly Traffic in Packets:
  104.   Traffic in packets for the month of October 1990 was 5.25 billion.
  105.  
  106.                                 2
  107.  
  108.  
  109.  
  110.  
  111.  
  112.  
  113.      This represents a 269
  114.    o Major NSFNET Applications By Packets:
  115.      As is the norm, networked mail applications and file exchange
  116.      accounted for the highest usage of the backbone in September of
  117.      1990.  Interactive applications, again as is the norm, accounted
  118.      for the third highest usage of the backbone.
  119.    o NSFNET - The Reliable Network:
  120.      The NSFNET backbone maintained an average uptime status of
  121.      99.88through September 1990.  Included in this calculation are
  122.      Class One outages only, which means a node site was completely
  123.      unreachable due to an NSS being down.  Planned outages, such as for
  124.      UPS maintenance, are included in this figure.
  125.  
  126.  
  127.  
  128. Attendees
  129.  
  130. Vikas Aggarwal           vikas@JVNC.net
  131. Guy Almes                almes@rice.edu
  132. Ronald Broersma          ron@nosc.mil
  133. Robert Cooney            cooney@wnyose.nardac-dc.navy.mil
  134. Tom Easterday            tom@nisca.ircc.ohio-state.edu
  135. Fred Engel               engel@concord.com
  136. Peter Ford               peter@acl.lanl.gov
  137. Vince Fuller             vaf@Standford.EDU
  138. Phillip Gross            pgross@nri.reston.va.us
  139. Tony Hain                alh@eagle.es.net
  140. Susan Hares              skh@merit.edu
  141. Eugene Hastings          hastings@psc.edu
  142. Kathleen Huber           khuber@bbn.com
  143. Dale Johnson             dsj@merit.edu
  144. Philip Karn              karn@thumper.bellcore.com
  145. Holly Knight             holly@apple.com
  146. William Kutz             Kutz@dockmaster.ncsc.mil
  147. E. Paul Love             loveep@sdsc.edu
  148. Matt Mathis              mathis@pele.psc.edu
  149. Milo Medin               medin@nsipo.nasa.gov
  150. Donald Morris            morris@ucar.edu
  151. Chris Myers              chris@wugate.wustl.edu
  152. David O'Leary            oleary@noc.sura.net
  153. Joel Replogle            replogle@ncsa.uiuc.edu
  154. Robert Reschly           reschly@brl.mil
  155. Timothy Salo             tjs@msc.edu
  156. Tom Sandoski             tom@concert.net
  157. Bernhard Stockman        boss@sunet.se
  158. Roxanne Streeter         streeter@nsipo.nasa.gov
  159. Kannan Varadhan          kannan@oar.net
  160. Carol Ward               cward@spot.colorado.edu
  161. Dan Wintringham          danw@osc.edu
  162. Robert Woodburn          woody@sparta.com
  163.  
  164.  
  165.                                    3
  166.